open-webui open-webui Open WebUI is an extensible, feature-rich, and user-friendly self-hosted WebUI For more information, be sure to check out our Open WebUI Documentation. 环境要求 熟练使用python Node.js >= 20.10 Python >= 3.11 步骤 克隆代码 git clone https://github.com/open-webui/open-webui.git cd open-webui/ 拷贝.env文件,可鼠标右键复制粘贴 # Copying required .env file cp -RPp .env.example .env 构建前端页面 #
如何才能更好的实现访问呢,这个就是我们今天要讲的Open WebUI,它可以向我们使用官方DeepSeek一样直接在网页进行对话。 Pipelines 插件支持:使用 Pipelines 插件框架将自定义逻辑和 Python 库无缝集成到 Open WebUI 中 1.创建conda 虚拟环境 conda create --name openwebui python=3.12.9 2.安装Open WebUI pip install open-webui -i https://mirrors.aliyun.com/pypi/simple / 3.启动Open WebUI # 禁用OLLAMA API export ENABLE_OLLAMA_API=False # 设置OpenAI API的基础URL为本地服务器 export OPENAI_API_BASE_URL WebUI open-webui serve 4.配置Open WebUI 5.开始提问
COMMAND CREATED STATUS PORTS NAMES 948e39d916a7 ghcr.io/open-webui /open-webui:main "bash start.sh" 7 seconds ago Up 7 seconds 0.0.0.0:11433->8080/tcp ollama-webui 看了日志才知道,原来是open-webui启动时期需要首先在线安装transformers库,但是huggingface.co对于国内来说是经常不可访问): 于是赶紧求助bing,找到一个镜像网站, 完整的命令行如下: docker run -d \ --restart unless-stopped \ --name ollama-webui \ -p 11433:8080 \ =12345678 \ ghcr.io/open-webui/open-webui:main 本文由 小马哥 创作,采用 知识共享署名4.0 国际许可协议进行许可 本站文章除注明转载
今天,我要分享一个我为 Open WebUI 开发的实用小工具 —— 一个能够实时统计文本生成效率的 Python 函数。 import BaseModel, Field from typing import Optional, Callable, Any, Awaitable import re import time from open_webui.utils.misc
一分钟极速部署#使用Docker一键启动(假设已安装Ollama并拉取模型)dockerrun-d-p3000:8080\-vopen-webui:/app/backend/data\--nameopen-webui \--restartalways\ghcr.io/open-webui/open-webui:main#访问http://localhost:3000#首次登录创建账户,然后在设置中连接本地Ollama 项目地址GitHub:https://github.com/open-webui/open-webui官网:https://openwebui.com/总结:个人AI基础设施的成熟标志OpenWebUI
25.1.10记:Open WebUI docker容器更新可能会导致腾讯云官方提供的Python SDK 丢失,需要重新安装环境(参照步骤1.b)。 1. 前置要求 a. 打开Open WebUI的控制台,安装腾讯云官方提供的Python SDK i. 我部署的设备是unraid,点击图标,然后点击WebUi下的Console,进入控制台(里面是Linux的terminal),复制并执行下面的命令。 前往Open WebUI社区,选择function然后搜索Tencent HunyuanAI,或者直接点击这里 ii. 点击get,输入自己Open Webui的地址就直接跳往安装。 b. 填写密钥 i. 点击齿轮按钮依次输入刚刚获取的密钥就行 c.
今天给大家介绍一个本地运行大模型的工具ollama,能够让我们方便地运行各种大模型,Open Webui 界面化的管理使用各种大模型。 ollama pull gemma:7b 然后再执行上面命令,显示下面内容代表模型gemma已经运行了,可以开始对话了 我们测试一下: 2.安装Open Webui 2.1 安装Docker docker-desktop 2.3 安装Open Webui 执行docker命令安装 docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 安装完成后,您可以通过http://localhost:3000访问 Open WebUI 至此安装完成 3.Open Webui 运行模型 界面如下 依次选择模型,选择对应的模型后,在3处输入内容即可
running就表示运行成功了 docker桌面下载 下载地址:https://www.docker.com/products/docker-desktop/ 下载完成后启动运行,可以看到如下界面 搜索框搜open-webui 大家可以直接搜索 llama3-8b-chinese-chat-ollama-q8 这个模型是对llama3进行了中文微调后的模型,相对对中文比较友好 一般小型模型也得几个G,下载需要一会时间等待,下载完成在webui ,不过一般个人电脑也仅仅是运行起来,速度比较慢,只能满足下自己日常的好奇心,真正要投入生产还是需要一个不错的机器才行,自己也可以下一些响应速度更快的mini模型测试 接口调用的使用方式 以上展示了使用open-webui
apt-get update apt-get install -y nvidia-docker2 systemctl restart docker 3.下载镜像 docker pull ghcr.io/open-webui /open-webui:cuda docker pull vllm/vllm-openai 4.运行vLLM容器 docker run -d \ --gpus all \ --restart unless-stopped 5.运行Open WebUI容器 docker run -d \ --name openwebui-container \ --network host \ --gpus all \ - http://localhost:8000/v1 \ -e OPENAI_API_KEYS=OPENWEBUI123 \ -e USE_CUDA_DOCKER=true \ ghcr.io/open-webui /open-webui:cuda 6.验证DeepSeek #Open WebU访问地址,先创建管理员,然后进入对话界面, http://x.x.x.x:8080
序本文主要研究一下如何使用OpenWebUI+deepseek构建本地AI知识库步骤拉取open-webui镜像docker pull ghcr.io/open-webui/open-webui:maindocker 启动docker run -d -p 3000:8080 \-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \ghcr.io/open-webui /open-webui:main执行完之后等一会(大概要三四分钟)启动起来了访问http://localhost:3000/,注册管理员账号,注册完要等一会(估计要七八分钟)页面才出来可以-v . /open-webui-data:/app/backend/data来挂载数据看日志是有报错ERROR [open_webui.routers.openai] Connection error: Cannot ] get_all_models()INFO [open_webui.routers.ollama] get_all_models()INFO [open_webui.routers.ollama]
就 Ollama GUI 而言,根据不同偏好,有许多选择: Web 版:Ollama WebUI 具有最接近 ChatGPT 的界面和最丰富的功能特性,需要以 Docker 部署; Ollama WebUI
Open WebUI 部署同样,有两种方法可以部署 Open WebUI,分别是 Docker 安装和 Python pip 安装。既没有 Docker,也不想使用 Python? open-webui# 启动 Open WebUIopen-webui serve如果你想使用 Docker 部署 Open WebUI,那么可以参考 Open WebUI 官方文档。 /open-webui/open-webui:main解释一下参数:-p 3000:8080:将容器的 8080 端口映射到主机的 3000 端口;--add-host=host.docker.internal 浏览器访问 http://localhost:3000,即可进入 Open WebUI 的界面。根据提示初始化账号即可:如果开启后,卡在加载界面。可以进入 Open WebUI 的容器内。 配置 Open WebUI其实本地 Open WebUI 和 Ollama 的配置,已经做到了开箱即用。存在部分情况需要设置 API 接口,或者设置远程 ollama 的接口用于本地调用。
Open-webui 是一种友好的 Web 用户界面,专为大语言模型(LLM)设计,支持包括 Ollama 和 OpenAI 兼容的 API。 total_tokens":35}} #### api请求工具(如postman、apipost等等,这里我用的是apipost工具) #### 查看 token 消耗 可以看到上面有2次请求,已经消耗了一些token Open-webui docker run --name open-webui -d -p 8080:8080 --add-host=host.docker.internal:host-gateway -v /home /ubuntu/data/open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui ,Open-webui 提供了一个非常友好的web交互界面,让用户可以不用懂代码、不用懂开发就能体验私有化大模型,One-api 提供了一个非常优秀的安全鉴权措施,2个工具都是拿来开箱即用,非常方便;
目录 ✨️Open-WebUI介绍 优点 部署教程 1.打开官网地址 2.安装Docker 3.Open WebUI下载 ️️功能介绍 1.AI编程 2.聊天历史 3.自定义Web的界面 ✨️Open-WebUI --restart always ghcr.io/open-webui/open-webui:main 参数详解 docker run: 启动一个新的 Docker 容器。 -v open-webui:/app/backend/data: 将本地的 open-webui 卷映射到容器内的 /app/backend/data 目录。 --name open-webui: 为容器指定一个名称 open-webui,以便于管理和识别。 ghcr.io/open-webui/open-webui:main: 使用来自 GitHub 容器注册表(GitHub Container Registry)的 open-webui 镜像,并指定使用
CVE-2025-64495:Open WebUI存储型DOM XSS漏洞分析与利用 项目概述CVE-2025-64495是一个影响Open WebUI版本<= 0.6.34的高危安全漏洞。 漏洞状态:发布时间: 2025年11月7日修复时间: 2025年11月8日修复版本: Open WebUI 0.6.35漏洞评分: 8.7/10(高危)⚡ 功能特性与漏洞影响核心功能分析富文本提示功能 - Open WebUI允许用户以富文本格式插入提示信息多用户协作 - 支持多个用户同时使用和共享提示功能扩展 - 管理员可通过“Functions”功能在服务器端执行Python代码漏洞影响范围攻击向量 : AV:N/AC:L/PR:L/UI:R/S:C/C:H/I:H/A:N所需权限: 低 - 任何能够访问提示功能的用户影响版本: Open WebUI <= 0.6.34独特价值说明此漏洞的特殊之处在于将存储型 安装与复现环境环境要求受影响版本: Open WebUI <= 0.6.34浏览器环境: 现代浏览器支持JavaScript网络访问: 可访问目标Open WebUI实例复现步骤部署Open WebUI
reservations:devices:-driver:nvidiacount:allcapabilities:[gpu]restart:alwaysnetworks:-ai-networkopen-webui :image:ghcr.io/open-webui/open-webui:maincontainer_name:open-webuiports:-"3000:8080"environment:-OLLAMA_BASE_URL **启动OpenWebUI容器**:dockerrun-d\--nameopen-webui\-p3000:8080\-eOLLAMA_BASE_URL=http://<你的OllamaIP>:11434 \-vopen-webui-data:/app/backend/data\--restartalways\ghcr.io/open-webui/open-webui:main`第三章:核心功能实战——超越简单的聊天 访问控制:修改默认WEBUI_SECRET_KEY。在Ollama侧配置OLLAMA_HOST仅监听内网IP,防止未授权访问。
在企业AI应用的构建过程中,Open WebUI 和 Dify 作为两大主流开源工具,定位和功能差异显著。 企业级功能支持Open WebUI✅ 基础权限管理(RBAC)✅ 对话记录加密存储❌ 无工作流编排,仅支持单模型对话适用场景:内部测试、轻量级知识问答(需搭配其他工具扩展RAG)。 (BM25+语义)外部系统对接有限(通过API调用)深度集成(企业微信、钉钉、数据库等) 关键差异:Dify 提供 端到端RAG流水线(上传→切块→检索→生成),而 Open WebUI 需额外工具链支持 Open WebUI(快速试错)生产系统 → Dify(全流程开发) + 自研模块(补足安全/性能短板)五、总结:核心差异全景图对比维度Open WebUIDify核心价值模型交互的“可视化门户”AI应用的 WebUI(如医生问诊助手)需 多系统集成+业务流程 → Dify(如智能客服中心)企业可结合“Dify核心层 + Open WebUI交互层”的混合架构,兼顾开发效率与用户体验。
本地部署Ollama搭配开源视觉模型Gemma3和Open WebUI,不仅可离线运行强大多模态大模型,还通过图形界面实现便捷交互,兼顾隐私、安全与易用性。 2.打开命令提示符拉取Open WebUI Docker镜像docker pull ghcr.io/open-webui/open-webui:main3.启动容器并绑定Ollamadocker run-d \ --name open-webui \ ghcr.io/open-webui/open-webui:main-p 3000:8080:本地开放端口为3000OLLAMA_BASE_URL指向你主机上的 用花生壳内网穿透映射Open WebUI,实现远程访问前往贝锐花生壳官网,根据系统版本下载安装客户端,随后启动花生壳客户端并登录。 远程访问使用贝锐花生壳生成的固定访问链接,即可直接访问到本地部署的Open WebUI。
服务器购买配置网关部分操作1.购买带有open claw镜像模板的服务器2.检查对应的服务是否监听到公网地址0.0.0.0上2.1登录服务器目前openclaw使用的操作系统是Ubuntu操作系统,远程登录进来是 访问导致的目前查看以及生效了,但是依旧是由于浏览器强制不允许http访问导致的,若需要解决的话,需要配置端口映射,映射到本地来实现访问配置端口转发实现访问参考链接:玩转OpenClaw|如何访问OpenClaw WebUI
使用:首先下载的发行包是没有编译的,只要电脑装有Maven与JDK即可,点击buildx.sh 等待一会即可打包完成!打包完成会在 target文件夹下面找到你的jar包,然后你就可以正常启动了